Intelligenza artificiale, è ancora addestrata con dati pieni di razzismo e sessismo
| Wired Italia

Intelligenza artificiale, è ancora addestrata con dati pieni di razzismo e sessismo | Wired Italia

Intelligenza artificiale, è ancora addestrata con dati pieni di razzismo e sessismo
| Wired Italia


Si dice che gli algoritmi siano “opinioni incorporate nel codice” e poche persone comprendono le implicazioni di questa frase meglio di Abeba Birhane. Nata e cresciuta a Bahir Dar, in Etiopia, Birhane si è trasferita in Irlanda per studiare: prima psicologia, poi filosofia e infine un dottorato in Scienze cognitive all’Università di Dublino. Durante quest’ultimo, si è ritrovata a lavorare a stretto contatto con sviluppatori di software e studenti di scienze dei dati, persone immerse nei modelli che stavano costruendo e nei set di informazioni che stavano utilizzando; in quel momento ha iniziato a rendersi conto che nessuno si poneva delle domande su cosa fosse effettivamente contenuto in quei dati.

L’intelligenza artificiale (Ai) si è infiltrata in quasi tutti gli aspetti della nostra vita: può determinare se una persona verrà assunta o meno da un’azienda, diagnosticare un tumore o decidere se concedere la libertà vigilata a un detenuto. L’Ai viene spesso addestrata usando giganteschi insiemi di dati, di solito prelevati dal web per ragioni di economicità e facilità. L’inconveniente è costituito dal fatto che questi sistemi possono ereditare i pregiudizi degli esseri umani che li progettano e quelli presenti nei dati che li alimentano. Il risultato finale rispecchia la società, difetti compresi. Se non si riconoscono tali implicazioni, il rischio è quello di causare danni ingenti. L’intelligenza artificiale è già stata accusata di aver sottovalutato le esigenze sanitarie dei pazienti neri e di aver ridotto le probabilità di ottenere un mutuo per le persone di colore. Birhane ha deciso di indirizzare la sua ricerca verso l’analisi dei set di dati che plasmano sempre più il nostro mondo. Il suo obiettivo è smascherarne i pregiudizi e far rispondere delle loro azioni le grandi aziende che li progettano e ne traggono profitto.

Nuovo colonialismo

Il lavoro della studiosa ha ottenuto un notevole riconoscimento globale e nell’ottobre 2022 l’ha persino portata a parlare dei danni causati dalle big tech durante un incontro con il Dalai Lama. Spesso alla studiosa basta scalfire la superficie dei dati per far venire alla luce i problemi. Nel 2020, insieme al collega Vinay Prabhu ha esaminato due popolari set di dati. Il primo è 80 Million Tiny Images, un insieme creato dal Massachusetts Institute of Technology (Mit), citato in centinaia di articoli accademici e utilizzato da oltre un decennio per insegnare ai sistemi di apprendimento automatico a riconoscere persone e oggetti. Il set di dati era zeppo di etichette offensive, tra cui insulti razzisti associati alle immagini di persone di colore. Nell’altro set di dati, ImageNet, sono stati individuati contenuti pornografici, tra cui immagini di donne a torso nudo, che apparentemente non richiedevano il consenso esplicito dei soggetti ritratti in quanto prelevati da internet. Due giorni dopo la pubblicazione dello studio, il team del Mit si è scusato e ha ritirato il proprio dataset.

La responsabilità di questa discriminazione proviene dall’alto. La ricerca sull’apprendimento automatico è appannaggio prevalentemente di maschi bianchi, una fascia demografica lontana dalle comunità eterogenee che la disciplina sostiene di voler aiutare. Le grandi aziende tecnologiche non si limitano a offrire intrattenimento online, ma detengono un enorme potere che da forma agli eventi nel mondo reale. Birhane e altri definiscono questo fenomeno come “colonialismo digitale“, sostenendo che il potere delle big tech sia paragonabile a quello degli imperi coloniali del passato. Gli effetti nocivi generati da questo approccio non colpiranno tutti allo stesso modo: quando viene esportata nel Sud del mondo, la tecnologia porta con sé norme e filosofie radicate in Occidente; viene promossa come un modo per aiutare le popolazioni dei paesi meno sviluppati, ma spesso è imposta senza alcuna consultazione pubblica, e spinge queste popolazioni ancora di più ai margini: “Nessuno nella Silicon Valley rimane sveglio a preoccuparsi delle donne nere senza conto in banca in una zona rurale di Timbuctù“, sottolinea Birhane.

Big tech e lavoro sporco

La studiosa ritiene che modificare l’atteggiamento dell’opinione pubblica sia il motore più efficace per il cambiamento: le grandi aziende tecnologiche rispondono meglio all’indignazione che agli aggiustamenti burocratici. Ma Birhane non vuole rimanere invischiata in uno stato di lotta perenne: da donna di colore che lavora in un settore fondamentale ha sempre dovuto fare i conti con una certa resistenza: “Non credo di poter passare la mia vita a combattere“, ammette. Birhane – che al lavoro di docente ora affianca una borsa di studio senior presso la Mozilla Foundation – preferisce lasciare che sia ricerca a parlare per lei. Tuttavia, non crede che questo basti e non è ottimista sulla possibilità che le big tech correggano da sole la rotta. Per ogni set di dati problematico che viene rivelato e corretto, ce n’è un altro in agguato. A volte, poi, il suo lavoro non serve nemmeno a cambiare le cose: nel 2021, Birhane ha pubblicato assieme ad alcuni colleghi una ricerca su un set di oltre quattrocento milioni di immagini, chiamato Laion-400M, che restituiva foto pornografiche in risposta a richieste che includevano parole anche come “mamma” o “zia“. La ricerca ha generato indignazione, ma il set di dati esiste ancora e oggi è arrivato a contenere oltre cinque miliardi di immagini (recentemente si è addirittura aggiudicato un premio).

C’è un motivo per cui non è cambiato nulla. Se creare insiemi di dati per l’intelligenza artificiale è un’attività relativamente semplice – basta navigare in internet – la verifica delle informazioni richiede tempo e denaro: “Fare il lavoro sporco è molto più difficile“, evidenzia Birhane. Non ci sono incentivi a creare un set di dati pulito, e questo significa che tutto il lavoro sporco ricade sulle spalle di ricercatori come Birhane, per i quali passare al setaccio immagini razziste o che possono contemplare anche scene di stupro ha un prezzo: “È davvero deprimente e può essere traumatizzante” ammette la ricercatrice. A guidare il cambiamento dovrebbero essere le aziende tecnologiche con le loro vaste risorse, e non i ricercatori indipendenti. “In un mondo ideale, vorrei che ci fosse un sistema civile in cui le aziende si assumono la responsabilità e si assicurano che i sistemi che mettono in circolazione siano accurati, equi e giusti per tutti – dice Birhane –. Ma sospetto di pretendere troppo”.

Questo articolo è apparso originariamente nel numero di marzo/aprile 2023 del magazine di Wired UK.



Leggi tutto su www.wired.it
di Grace Browne www.wired.it 2023-06-02 04:40:00 ,

Previous Giardinaggio low cost: 10 trucchi per risparmiare

Leave Your Comment